Von der Leyens Robotergesetze

Die EU-Kommission hat jahrelang Experten angehört und die Sorgen von Bürgern und Aktivisten zur Kenntnis genommen, um die Entwicklung und den Einsatz von Künstlicher Intelligenz in der EU zu regeln. Jetzt liegt ein Vorschlag für ein gesetzliches Regelwerk für Künstliche Intelligenz im öffentlichen und gewerblichen Sektor vor. Es geht um selbst entwickelte und um importierte KI-Systeme.

No risk, no fun?

Die oberste Risiko-Stufe betrifft KI-Anwendungen, die ein „nicht akzeptables Risiko“ darstellen. Hier verletzt KI Grundrechte und wird deswegen verboten. Dabei geht es z.B. um eine Beeinflussung menschlichen Verhaltens, die zur Schädigung von Personen führt, oder um KI, mit deren Hilfe Regierungen ihre Bürger sozial bewerten könnten.

Geschichtserkennung und andere biometrische Identifikationssysteme, die im öffentlichen Raum in Echtzeit von Ordnungs- und Sicherheitsbehörden benutzt werden, sollen verboten werden, um Massenüberwachung zu verhindern. Konkrete Einzelpersonen können aber gezielt gesucht werden. – Würde diese Ausnahme in großer Zahl angewandt, wäre die Massenüberwachung durch die Hintertür wieder da.

Die zweithöchste Stufe ist „hohes Risiko“. Dazu gehört KI-gesteuerte Auswertung von Überwachungsaufnahmen, die nicht in Echtzeit stattfindet. KI-Systeme, die Emotionen erkennen, fallen hierunter, ebenso wie KI-Modelle, die den Zugang zu Bildung, Arbeit, Dienstleistungen und Krediten beurteilen. KI zur Einwanderungskontrolle, im Rechtswesen und zur Kontrolle von kritischer Infrastruktur gehören ebenfalls in diesen Hochrisiko-Bereich.

Hier werden vermeintlich strenge Regeln aufgestellt: Eine Risiko-Bewertung wird zwingend vorgeschrieben, Algorithmen dürfen nur an qualitativ hochwertigen Datensätzen trainiert werden, große Transparenz und Sicherheit muss gewährleistet sein sowie menschliche Oberaufsicht. Alle Hochrisiko-Systeme müssen in einer neuen EU-Datenbank registriert werden.

Aber da die Risiko-Bewertung in den meisten Fällen durch die Entwickler selbst vorgenommen werden darf anstatt durch unabhängige Dritte, sind Fehlern und Missbräuchen Tür und Tor geöffnet.

Zu viel oder zu wenig Regulierung?

Aktivisten für digitale Rechte fordern, dass vorhersagende Polizeiarbeit, automatische Einwanderungskontrolle, automatische Personenerkennung und alle Formen biometrischer Massenüberwachung eindeutig verboten werden müssen.

Von unmissverständlichen Spielregeln könnten auch innovative Entwickler profitieren. Dann müssten sie nicht am Rüstungswettlauf gegen Menschen und Demokratie teilnehmen, sondern könnten nützliche Anwendungen programmieren, die in der medizinischen Diagnostik oder bei der Bewältigung des Klimawandels helfen.

Markt- und kapitalnahe Kommentatoren warnen hingegen vor zu viel Regulierung. Entwickler könnten die EU verlassen, weil es in Großbritannien, den USA und China weniger rechtliche und bürokratische Hürden gebe. Ohnehin sei die KI-Entwicklung im Wesentlichen nur noch ein Wettbewerb zwischen den USA und China.

Nun befassen sich Europa-Parlament und Mitgliedsstaaten mit dem Proposal, das wurmstichige Regeln für einen hochdynamischen Technologiesektor in der globalen Provinz definiert. Das Equipment für unsere zukünftigen Smart Cities wird also, wie gewohnt, aus Nordamerika oder Fernost kommen.